Backlash đối mặt với phản ứng dữ dội như Claude 4 Opus có thể tự chủ cảnh báo một cách tự chủ khi phát hiện hành vi được coi là vô đạo đức nghiêm trọng, làm tăng quyền riêng tư lớn và tin tưởng vào mối quan tâm
Anthropic luôn nhấn mạnh cam kết về AI có trách nhiệm và ưu tiên an toàn, đây là một trong những giá trị cốt lõi của công ty. Gần đây, họ đã tổ chức hội nghị phát triển đầu tiên, nhưng sự kiện này đã bị che mờ bởi nhiều tranh cãi, làm giảm sự chú ý vào các thông báo quan trọng dự kiến. Anthropic dự kiến công bố mô hình ngôn ngữ mạnh nhất của mình, Claude 4 Opus, nhưng chế độ đánh giá trong mô hình đã gây ra phản ứng mạnh trong cộng đồng, khiến nhiều người đặt câu hỏi và chỉ trích các giá trị cốt lõi của công ty, đặc biệt là liên quan đến an toàn và quyền riêng tư.
Mô hình Claude 4 Opus của Anthropic đang gặp phải chỉ trích vì khả năng tự động liên hệ với các cơ quan chức năng khi phát hiện hành vi không đạo đức. Anthropic luôn nhấn mạnh về AI theo nguyên tắc hiến pháp, thúc đẩy các yếu tố đạo đức trong việc sử dụng mô hình AI. Tuy nhiên, khi công ty giới thiệu mô hình mới này tại hội nghị phát triển đầu tiên, những điều đáng chú ý về sức mạnh của nó đã bị che khuất bởi các tranh cãi.
Nhiều nhà phát triển và người dùng AI đã phản ứng trước khả năng của mô hình tự động báo cáo người dùng cho cơ quan chức năng nếu phát hiện hành vi phi đạo đức, như VentureBeat đã chỉ ra. Việc một mô hình AI có thể đánh giá đạo đức của ai đó và chuyển thông tin đó cho bên ngoài gây ra lo ngại nghiêm trọng. Cả cộng đồng công nghệ lẫn công chúng đều băn khoăn về sự mờ nhạt giữa an toàn và giám sát.
📢 Liên hệ quảng cáo: 0919 852 204
Quảng cáo của bạn sẽ xuất hiện trên mọi trang!
Kỹ thuật này được coi là xâm phạm quyền riêng tư của người dùng và làm giảm khái niệm tự chủ. Báo cáo cũng nhấn mạnh bài viết của Sam Bowman, nhà nghiên cứu về sự đồng điệu của AI tại Anthropic, khi ông đề cập đến công cụ dòng lệnh Claude 4 Opus có thể báo cáo với cơ quan chức năng và khóa người dùng khỏi hệ thống nếu phát hiện hành vi không đạo đức. Tuy nhiên, sau đó Bowman đã xóa tweet và giải thích rằng bình luận của ông bị hiểu sai, và đã làm rõ ý nghĩa thực sự của mình.
Ông ấy giải thích rằng hành vi này chỉ xảy ra trong môi trường thử nghiệm, nơi có các quyền đặc biệt và yêu cầu bất thường không phản ánh cách sử dụng thực tế. Mặc dù Bowman đã mô tả chế độ đánh giá, hành vi tố cáo vẫn gây bất lợi cho công ty. Thay vì thể hiện trách nhiệm đạo đức, nó lại làm suy giảm sự tin tưởng của người dùng và dấy lên nghi ngờ về quyền riêng tư, điều này có thể gây hại cho hình ảnh của công ty.
Công ty cần khẩn trương tìm cách xóa bỏ sự nghi ngờ.
Nguồn: wccftech.com/anthropic-faces-backlash-as-claude-4-opus-can-autonomously-alert-authorities-when-detecting-behavior-deemed-seriously-immoral-raising-major-privacy-and-trust-concerns/